
كشفت واقعة أمنية وسياسية لافتة في بريطانيا عن حجم الإشكاليات التي قد تنتج عن الاعتماد غير المنضبط على أدوات الذكاء الاصطناعي داخل مؤسسات إنفاذ القانون. فبعد تحقيقات برلمانية وضغوط إعلامية، اعترفت شرطة إقليم ويست ميدلاندز بأنها اعتمدت على معلومات غير صحيحة وفرتها أداة مايكروسوفت Copilot، وهو ما أسهم في اتخاذ قرار أمني حساس بمنع جماهير نادي مكابي تل أبيب الإسرائيلي من حضور مباراة أوروبية على الأراضي الإنجليزية.
القضية لم تكن مجرد خطأ تقني عابر، بل تحوّلت إلى أزمة ثقة بين المؤسسات الأمنية والسلطة التشريعية والرأي العام، خصوصًا أن القرار مسّ جماهير رياضية وارتبط بسياق سياسي وأمني معقّد.
اعتراف رسمي يهز المؤسسة الأمنية
في رسالة رسمية موجهة إلى لجنة برلمانية، أقرّ قائد شرطة إقليم ويست ميدلاندز، كريغ غيلدفورد، بأن جهازه استخدم أداة Copilot التابعة لمايكروسوفت أثناء إعداد التوصيات الأمنية لمباراة جمعت بين مكابي تل أبيب وأستون فيلا ضمن منافسات الدوري الأوروبي. وأوضح أن الأداة قدّمت معلومات غير دقيقة لم ينتبه إليها الضباط في حينه، فتم التعامل معها على أنها وقائع حقيقية.
هذا الاعتراف فتح الباب أمام تساؤلات حادة حول مدى جاهزية الأجهزة الأمنية للتعامل مع أدوات الذكاء الاصطناعي، وحدود الاعتماد عليها في ملفات حساسة تتعلق بالأمن العام.
مباراة وهمية غيّرت قرارًا حقيقيًا
بحسب غيلدفورد، أنشأ Copilot تفاصيل كاملة عن مباراة مزعومة بين مكابي تل أبيب ونادي وست هام يونايتد، وهي مباراة لم تُقم في الواقع. ورغم ذلك، جرى إدراج هذه “الوقائع” ضمن تقييم المخاطر الأمنية الخاصة بالمباراة الأوروبية التي أقيمت في السادس من نوفمبر.
ساهم هذا الخطأ في ترجيح كفة التشدد الأمني، ما أدى إلى اتخاذ قرار بمنع جماهير مكابي تل أبيب من دخول ملعب أستون فيلا. القرار أثار جدلًا واسعًا داخل المملكة المتحدة، ووصل صداه إلى مكتب رئيس الوزراء كير ستارمر، الذي واجه بدوره ضغوطًا سياسية لتفسير ما جرى.
رد مايكروسوفت وحدود التقنية
من جانبها، أعلنت شركة مايكروسوفت أنها لم تتمكن من إعادة إنتاج النتائج التي قالت الشرطة إنها حصلت عليها عبر Copilot. وأكدت الشركة أن الأداة تجمع المعلومات من مصادر متعددة على الإنترنت وتعرضها مصحوبة بروابط مرجعية، مع تنبيه المستخدمين إلى ضرورة مراجعة هذه المصادر وعدم الاعتماد الأعمى على المخرجات.
وأوضح متحدث باسم الشركة أن Copilot صُمم ليكون أداة مساعدة لا بديلًا عن التحقق البشري، وأنه يفترض وجود عنصر بشري يقوم بالتدقيق قبل بناء أي قرار على نتائجه.
تضارب الشهادات وتداعيات سياسية
كشف غيلدفورد كذلك عن خطأ آخر، تمثل في تقديمه شهادة سابقة للجنة البرلمانية أكد فيها أن الذكاء الاصطناعي لم يُستخدم في إعداد التوصيات الأمنية. وأوضح لاحقًا أنه كان يعتقد أن المعلومات الخاطئة جاءت من بحث تقليدي عبر جوجل، لا من أداة ذكاء اصطناعي.
اعتذر المسؤول الأمني عن هذا “التضليل غير المقصود”، لكن وزيرة الداخلية البريطانية شابانا محمود أعلنت أمام البرلمان فقدانها الثقة في غيلدفورد، في تطور سياسي يعكس حساسية القضية وخطورتها.
حادثة تفتح باب المراجعة
كشفت هيئة الإذاعة البريطانية BBC أن أكثر من 700 ضابط شرطة نُشروا لتأمين المباراة، وسط احتجاجات خارج الملعب، بعدما صُنفت المواجهة على أنها عالية الخطورة. واستندت الشرطة في تبريرها الأولي إلى معلومات استخباراتية وحوادث سابقة، جرى دمجها مع البيانات الخاطئة الصادرة عن Copilot.
أعادت هذه الواقعة إشعال النقاش في بريطانيا حول ضوابط استخدام الذكاء الاصطناعي في القطاع العام، خصوصًا في المجالات الأمنية، مع مطالب بوضع أطر واضحة للمراجعة والمساءلة، تضمن بقاء القرار النهائي بيد الإنسان لا الخوارزمية.
في المحصلة، تمثل الحادثة تحذيرًا صريحًا من مخاطر الاعتماد المفرط على أدوات الذكاء الاصطناعي في القرارات الحساسة. فمعلومة وهمية واحدة كانت كفيلة بتغيير مسار قرار أمني واسع النطاق، وإشعال جدل سياسي وإعلامي امتد على مستوى الدولة بأكملها.






